22 research outputs found

    Learning the optimal scale for GWAS through hierarchical SNP aggregation

    Full text link
    Motivation: Genome-Wide Association Studies (GWAS) seek to identify causal genomic variants associated with rare human diseases. The classical statistical approach for detecting these variants is based on univariate hypothesis testing, with healthy individuals being tested against affected individuals at each locus. Given that an individual's genotype is characterized by up to one million SNPs, this approach lacks precision, since it may yield a large number of false positives that can lead to erroneous conclusions about genetic associations with the disease. One way to improve the detection of true genetic associations is to reduce the number of hypotheses to be tested by grouping SNPs. Results: We propose a dimension-reduction approach which can be applied in the context of GWAS by making use of the haplotype structure of the human genome. We compare our method with standard univariate and multivariate approaches on both synthetic and real GWAS data, and we show that reducing the dimension of the predictor matrix by aggregating SNPs gives a greater precision in the detection of associations between the phenotype and genomic regions

    Study of Wave Conditions at Kvitsøy Prototype Location of Seawave Slot-Cone Generator

    Get PDF

    Realistic marine flow conditions for tidal turbines studies

    No full text

    Apprentissage statistique pour les études d'association et d'interactions entre données omiques fondée sur une approche de compression structurée

    No full text
    Depuis la dernière décennie le développement rapide des technologies de génotypage a profondément modifié la façon dont les gènes impliqués dans les troubles mendéliens et les maladies complexes sont cartographiés, passant d'approches gènes candidats aux études d'associations pan-génomique, ou Genome-Wide Association Studies (GWASs). Ces études visent à identifier, au sein d'échantillons d'individus non apparentés, des marqueurs génétiques impliqués dans l'expression de maladies complexes. Ces études exploitent le fait qu'il est plus facile d'établir, à partir de la population générale, de grandes cohortes de personnes affectées par une maladie et partageant un facteur de risque génétique qu'au sein d'échantillons apparentés issus d'une même famille, comme c'est le cas dans les études familiales traditionnelles.D'un point de vue statistique, l'approche standard est basée sur le test d'hypothèse: dans un échantillon d'individus non apparentés, des individus malades sont testés contre des individus sains à un ou plusieurs marqueurs. Cependant, à cause de la grande dimension des données, ces procédures de tests classiques sont souvent sujettes à des faux positifs, à savoir des marqueurs faussement identifiés comme étant significatifs. Une solution consiste à appliquer une correction sur les p-valeurs obtenues afin de diminuer le seuil de significativité, augmentant en contrepartie le risque de manquer des associations n’ayant qu'un faible effet sur le phénotype.De plus, bien que cette approche ait réussi à identifier des marqueurs génétiques associés à des maladies multi-factorielles complexes (maladie de Crohn, diabète I et II, maladie coronarienne,…), seule une faible proportion des variations phénotypiques attendues des études familiales classiques a été expliquée. Cette héritabilité manquante peut avoir de multiples causes parmi les suivantes: fortes corrélations entre les variables génétiques, structure de la population, épistasie (interactions entre gènes), maladie associée aux variants rares,...Les principaux objectifs de cette thèse sont de développer de nouvelles méthodes statistiques pouvant répondre à certaines des limitations mentionnées ci-dessus. Plus précisément, nous avons développé deux nouvelles approches: la première exploite la structure de corrélation entre les marqueurs génétiques afin d'améliorer la puissance de détection dans le cadre des tests d'hypothèses tandis que la seconde est adaptée à la détection d'interactions statistiques entre groupes de marqueurs méta-génomiques et génétiques permettant une meilleure compréhension de la relation complexe entre environnement et génome sur l'expression d'un caractère.Since the last decade, the rapid advances in genotyping technologies have changed the way genes involved in mendelian disorders and complex diseases are mapped, moving from candidate genes approaches to linkage disequilibrium mapping. In this context, Genome-Wide Associations Studies (GWAS) aim at identifying genetic markers implied in the expression of complex disease and occuring at different frequencies between unrelated samples of affected individuals and unaffected controls. These studies exploit the fact that it is easier to establish, from the general population, large cohorts of affected individuals sharing a genetic risk factor for a complex disease than within individual families, as is the case with traditional linkage analysis.From a statistical point of view, the standard approach in GWAS is based on hypothesis testing, with affected individuals being tested against healthy individuals at one or more markers. However, classical testing schemes are subject to false positives, that is markers that are falsely identified as significant. One way around this problem is to apply a correction on the p-values obtained from the tests, increasing in return the risk of missing true associations that have only a small effect on the phenotype, which is usually the case in GWAS.Although GWAS have been successful in the identification of genetic variants associated with complex multifactorial diseases (Crohn's disease, diabetes I and II, coronary artery disease,…) only a small proportion of the phenotypic variations expected from classical family studies have been explained .This missing heritability may have multiple causes amongst the following: strong correlations between genetic variants, population structure, epistasis (gene by gene interactions), disease associated with rare variants,…The main objectives of this thesis are thus to develop new methodologies that can face part of the limitations mentioned above. More specifically we developed two new approaches: the first one is a block-wise approach for GWAS analysis which leverages the correlation structure among the genomic variants to reduce the number of statistical hypotheses to be tested, while in the second we focus on the detection of interactions between groups of metagenomic and genetic markers to better understand the complex relationship between environment and genome in the expression of a given phenotype

    Interactions houle-courant en bathymétrie variable (approches numériques et expérimentales)

    No full text
    BREST-BU Droit-Sciences-Sports (290192103) / SudocSudocFranceF

    Interaction houle-courant par profondeur finie : impact sur la cinématqiue

    No full text
    The aim of this large scale basin experiment on wave current interactions was a better understanding of vertical velocity profiles changes due to progressive surface waves. The instrumentation deployed including wave gauges, pressure sensors and current meters allowed precise measurements along the basin. In particular, the effect of waves on the homogenization of vertical profile was measured, and the effect of current on the underestimate of wave height from bottom mounted pressure sensors was demonstrated. However, the current flow without wave was bi-dimensional and weakly sheared, and no study on the current instability as observed in previous experiment could be achieved.Ce travail expérimental sur les interactions houle-courant avait pour but une meilleure connaissance des profils de courant sur la colonne d’eau en fonction des conditions de houles et de la profondeur d’eau relative. L’instrumentation déployée (sondes limnimétriques, capteurs de pression, courantomètres) ont permis de mettre en évidence d’une part l’impact de la superposition d’une houle et d’un courant sur le profil vertical de l’écoulement moyen, et d’autre part l’effet du courant sur le calcul de la hauteur de la houle à partir de capteurs de pression sur le fond. Cependant, pour les cas étudiés lors de cette campagne expérimentale, l’écoulement en l’absence de vagues restait bien bidimensionnel et peu cisaillé, ce qui ne nous a pas permis de mener une étude sur les instabilités telles qu’on avait pu les observer lors d’une précédente campagne, cependant trop peu instrumentée pour une étude détaillée

    Interaction houle-courant en bathymétrie variable via une approche de type boussinesq

    No full text
    Modeling wave-current interaction needs a method combining accurate kinematics and reasonable computing efforts. Refined waves kinematics are described by a Boussinesq-type approach allowing a variable bathymetry. This method is adapted to take current effects into account. Results on Doppler shift, waves blocking and velocity profile are reported in a twodimensional case.La modélisation de la cinématique de sites à forts courants exposés à la houle requiert une approche équilibrée entre complexité du modèle et finesse de la description recherchée. Afin de représenter la cinématique de l’écoulement à l’échelle de chaque vague, une formulation de type Boussinesq originale permettant la présence de bathymétrie variable est employée. Celle-ci doit être adaptée afin de prendre en compte les effets du courant. Les résultats sur le décalage Doppler, le blocage des vagues ainsi que sur les profils de vitesses sont présentés dans un cas bidimensionnel

    Shear measurement bias: II. A fast machine-learning calibration method

    No full text
    International audienceWe present a new shear calibration method based on machine learning. The method estimates the individual shear responses of the objects from the combination of several measured properties on the images using supervised learning. The supervised learning uses the true individual shear responses obtained from copies of the image simulations with different shear values. On simulated GREAT3 data, we obtain a residual bias after the calibration compatible with 0 and beyond Euclid requirements for a signal-to-noise ratio > 20 within ∼15 CPU hours of training using only ∼105 objects. This efficient machine-learning approach can use a smaller data set because the method avoids the contribution from shape noise. The low dimensionality of the input data also leads to simple neural network architectures. We compare it to the recently described method Metacalibration, which shows similar performances. The different methods and systematics suggest that the two methods are very good complementary methods. Our method can therefore be applied without much effort to any survey such as Euclid or the Vera C. Rubin Observatory, with fewer than a million images to simulate to learn the calibration function
    corecore